インターフェース工学 対話のインタフェース
対話のインタフェース
* 前回まで 5感に注目
* 触覚インターフェースの流行り
* 目に認知負荷がかかりすぎると大変
* 5かん 歳いって衰える
* テーマ 共感
* 触覚
* 環境再現型
* 物体の形ごと
* 皮膚変形再現型
* 小さいもの多し
* 局所的に
* 受容器活動再現型
* 連携しやすい
* 振動なども
* ウェーバフェヒナーの法則
* 人間の近くは線形でない
* 100に 1 ずつ乗せると 2で気づく
* 200に 1 4で気づく
* 対話
* 人間がコンピュータにアウトプット
* 計算機への入力方法
* バッチ方式
* 対話一回 1回情報をインプットして、アウトプットする
* 銀行が3時に閉まる
* 銀行はバッチ式だから
* 昔はプログラミングが紙
* オルゴールみたいなもん
*
* 最近の主流は、オンライントランザクション
* ネットワークが広がってる前提
* 逐次対話方式 CUI
* character u i
*
* GUI
* 昔はぐーい
* 1960年ごろ
* 一般は1970年
* 昔は60万
* 最初mac
* マイクロソフト 5年後 しかもしょぼい
* 結局10年経った
* デスクトップメタファ
* 机の周りを中心に 作った
* WIMP
* window Icon Menu Pointers
* wiswig what i see what i get iじゃなくy版も
* 直接操作
* 最初は、軟弱と言われてた wimp は、弱虫
* CUI vs GUI
* GUI
* 直感性 GUI
* マルチウィンドウで色々しやすい
* 履歴残りにくい
* GUIは、負担大きい
* 操作が煩雑に
* 複雑だと覚えれない
* CUI コマンド作ると一発
* 一貫性保証されてない
* 特定のファイル見つけるの早い
*
* いろいろ
* 次世代 音声
* 自然言語インターフェース
* ナイトライダー 1982
* スタートレック 1987
* 日本人とアメリカ人違う
* 2003年
* 日本人 リモコン > 音声
* アメリカ人 リモコン < 音声
* 背景 アメリカ チャンネル60個くらい
* 音声認識
* voice XMLの策定
* ディクテーション
* 議事録作成
* 1997 ViaVoice IBM
* お金のかける量が違う
* 2005年 愛・地球博 リプリー 石黒先生 アンドロイド
* シーマン
* PAPERO NEC
* apple siri 2009 論文
* google home /Alexa
* 人間の言葉を理解できてるの?
* 例 open (Info
* 難しい
* どれが命令かわからない
* 逸脱した時の修正が大変
* なぜ シーマンは対話してるように見える?
* コンピューターが喋ることをリードしているから
* 候補しぼるから
* Alexa で プログラミング
* 目的思考対話
* 目的が決まっていて
* 分野を限定させる
* 音響モデル
* 漢字難しい
*
*
以下梅田
前回の質問:
iPhoneの3Dタッチ
振動を使って活動再現?
錯聴:パッとインタフェースに応用できるのは思いつかない
身体の入力センサ:
大きい値を入力し続けると麻痺してくる
舌も辛いものだけ食べ続けない
大きな音楽を聴きすぎない
でも気をつけても生体センサは必ず衰えてくる
イヤホンで、真上、背後から聞こえてくるようにできるのか
先生:その視点で考えたことがない、知識がなくてわからない
骨で聴くのと耳で聴く自分の声は違う
骨を通すと振動数の違いにより低く聞こえる
臭っているのは、舌と同じく臭いの元の物質を舐めているのと同じ笑
イヤホンよりヘッド本のが耳にいい?
同条件ならヘッドホンのが耳にかかる音圧は少ない
錯聴の切れた音のつながりの補完:
知らない曲でも起こり得る
触覚インタフェースが流行っている理由:
1つの生体入力センサの限界
例:運転中、視覚野は周囲の状況判断に多くを割く
だから他の入力センサを使う
聴覚と触覚を比べると
触覚のが多次元に扱える
身体中にあるから
今日のテーマ:
対話のインタフェース
これまで各感覚を紹介した
先週の復習:
皮膚感覚の再現 3通り
環境再現型:
市販された、ハグをするスーツなど
皮膚変形再現型:
同じ圧力をかけて指を変形させる
受容器活動再現型:
電気刺激、吸引などで受容器に働きかける
一番応用が効く
振動で3Dタッチの深く押した感の再現など
ウェーバー・フェヒナーの法則
人間の五感の知覚は線形ではない
100gの重りを持っていいる人に1gずつ重りを足していって気付いたら教えてもらう実験
初期値が100gの時、2gで気付いた
でも200gでは、4gないと気がつかない
↓
ベースになる重さが変わると識別できる重さの最小単位が変わる
S=k*logI+c
C:感覚量
I:刺激量
K,c 各感覚ごとの定数
100円が105円になると高くなったと感じる
でも10000円が10005円になっても変わった気がしない
ここからの話:対話 双方向のやり取り
計算機への入力方法:
バッチ方式
CUI
GUI
次世代の操作方式
バッチ方式:
対話が一回だけの方式
あらかじめ貯めた情報を一気に処理
銀行:3時で閉まって紙の書類を一気にコンピュータに入れる作業があった
今はオンラインで対話的に。
昔のプログラミング:
パンチカードに穴を開けて読み込ませていた
GUI:昔はぐーいと呼んでいた
今一般の人たちが普段使っているやり方
商用ではXeroxのALTOが最初
1984 macintosh によってGUIが広まった

その多くは仕事場のデスクトップのメタファを採用
ファイル
ゴミ箱
WIMPが構成要素
Window
Icon
Menus
Pointers
Wimp : 弱虫、意気地なし、怖がり
直接操作
WISIWIG(What I see is what I get)→wordのように打ったものがそっくりに紙で得られる
マウスによる操作:
ドラッグ・ドロップ
CUI:character user interface
コマンド時代のやつ
ターミナルのやつ
GUI vs CUI
直感生ではGUIが勝つ
GUIのマルチウィンドウを使えば複数の作業の同時並行
一方、GUIは操作の履歴を残しにくい
CUIは全部上に残る
負担がGUIが断然大きい
CUIは軽い
操作が複雑だと、GUIの操作は覚えにくい時がある
一貫性が保証されていないとGUIは使いにくい
右クリックはなんだっけ?
特定の条件を満たすファイルはCUIの方がすぐ見つかる
*.tex →texファイルだけを表示
自然言語インタフェース
Knight 2000
USS enterprise
Ironman
余談:好み
日本人 リモコン>音声
米人 音声>リモコン
でも今はスマートスピーカー の影響で変わるかも
これに必要なのは音声認識
比較的実用レベルに近い
議事録の自動作成など
きっかけ:
ViaVoice IBM 1997
音声認識ソフトの先駆け
アメリカでは日本より多くの金をかけて
機械学習により実現した
石黒教授のジェミノイド
シーマン:
SEGA ゲーム
NEC PaPeRo
可愛い
Apple Siri
AI speaker
自然言語処理
もうコンピュータは人間の言葉を理解できているの?
↓
音声インタフェースでプログラミングをする実験
なかなかうまくいかない
Microsoft Vista Speech Recognition Tested - Perl Scripting
これが何を意味するか
話し言葉が聞き取れるだけでは、人間の命令を正しく理解できない
なぜシーマンは対話できているのか
↓
実際は、エージェント主導の対話に限定されているから
人間の発話が限定される
ほなプログラミングに特化させると?
Snoreで、余計なことを聞き撮らせないようにしている
SiriのHey Siriと同じ
目的思考型ではかなり対話できるという現状
あらかじめ認識可能な言い回しがある
まだまだ自由な目的のない対話はできない。
雑談など